Deutsches Recht
Zur Navigation springen
Zur Suche springen
Deutsches Recht bezeichnet:
- das Recht (Rechtswesen) Deutschlands;
- eine überlieferte Rechtstradition, die sich im deutschsprachigen Raum entwickelt hat und von der Rechtsgeschichte untersucht wird, siehe Deutsches Recht (Rechtstradition);
- Deutsches Recht (1912–1920), in Waidmannslust (heute zu Berlin gehörend) erschienene Zeitschrift (Untertitel „Eine gemeinverständliche Zeitschrift zur Verbreitung von Rechtskunde und zur Erlangung eines volkseigenen Rechts“);
- Deutsches Recht (1931–1945), Zentralorgan des Nationalsozialistischen Rechtswahrerbundes;
- Deutsches Recht (Gesetzessammlungen) ist darüber hinaus der Name von verschiedenen Gesetzessammlungen, die das zum Erscheinungszeitpunkt in Deutschland geltende Recht oder auch nur bestimmte Teile davon, ggf. auch außer Kraft getretenes Recht, zusammenstellen und auf einfache Weise verfügbar machen.